Yiksan0315's Blog

ReLU

# Tag:

  • Source/KU_DL
  • Source/KU_ML2

ReLU

음수는 0으로, 양수는 그대로 출력하는 Activation Function

일부분이 Linear함이 강하게 드러나므로, 성능이 좋게 나타나는 Activaiton Function이기도 하다.

SigmoidTanh는 1보다 크지 않은 값으로 치환하기 때문에 학습이 효과적으로 이루어지지 않는데, 이를 해결하는 방안이 되기도 한다.

또한, Sigmoid는 양 끝에서 기울기가 0에 가까워지므로 Gradient Vanishing 문제가 잘 생기는데 이를 해결해주기도 한다.

Leaky ReLU function

ReLU의 기울기가 0인 부분에 의해 Back Propagation시 update가 이루어지지 않는 문제를 해결하기 위한 ReLU의 일종.

이 때 으로 하여, 이를 parameter 취급해 학습시키는 방식은 PReLU(parametric ReLU)라고 한다.

toc test

이 페이지는 리디주식회사에서 제공한 리디바탕 글꼴이 사용되어 있습니다. 리디바탕의 저작권은 리디주식회사가 소유하고 있습니다.

This Font Software is licensed under the SIL Open Font License, Version 1.1.

Copyright 2025. yiksan0315 All rights reserved.